Google zaniepokoiło lekarzy: „Wytworzyło część, która nie istnieje w ludzkim ciele”

Powszechne stosowanie narzędzi sztucznej inteligencji w sektorze opieki zdrowotnej, które charakteryzują się wysokim ryzykiem wystąpienia błędów, budzi coraz większe obawy wśród lekarzy i ekspertów.
Podstawą tych obaw jest tendencja sztucznej inteligencji do prezentowania informacji, które w rzeczywistości nie istnieją, jako wiarygodnych, co jest znane jako „halucynacja”.
Ostatecznie błąd w modelu sztucznej inteligencji Google’a ukierunkowanym na zdrowie, Med-Gemini, ujawnił, jak poważny może być ten problem.
REGION MÓZGU, KTÓRY NIE ISTNIEJEW artykule opublikowanym w maju 2024 roku badacze Google przetestowali zdolność Med-Gemini do analizy skanów mózgu w laboratorium radiologicznym. Model w jednym z wyników wspomniał o obszarze „jąder podstawnych”. Jednak obszar mózgu zwany „jądrami podstawnymi” w rzeczywistości nie istnieje.
Neurolog Bryan Moore zauważył błąd i zgłosił go serwisowi The Verge. Google jednak przypisał go literówce, myląc terminy „jądra podstawy” (obszar mózgu związany z ruchami motorycznymi i kształtowaniem nawyków) z terminem „tętnica podstawna” (główne naczynie krwionośne u podstawy pnia mózgu).
WYSOKIE RYZYKO W MEDYCYNIEEksperci podkreślają, że tego typu błędy mogą prowadzić do dezinformacji podczas codziennego wyszukiwania w Internecie, ale konsekwencje mogą być o wiele poważniejsze w warunkach szpitalnych.
„To różnica dwóch liter, ale ogromna. Tego typu błędy są niezwykle niebezpieczne” – powiedział Maulin Shah, dyrektor ds. informacji medycznej w systemie opieki zdrowotnej Providence. Google ogłosił w zeszłym roku, że Med-Gemini ma „znaczny potencjał” w medycynie i może być używany do wykrywania chorób na podstawie zdjęć rentgenowskich, tomografii komputerowej i innych obrazów.
Eksperci twierdzą jednak, że na obszarach wysokiego ryzyka tolerancja błędów powinna być znacznie niższa, a nie na poziomie typowym dla człowieka.
ntv